EvoClass
IA012
Approfondimento sui modelli linguistici di grandi dimensioni
Studi di caso sui modelli linguistici di grandi dimensioni e strategie di implementazione
Obiettivi dell'apprendimento
- Analizzare le differenze strutturali tra architetture a encoder solo (BERT), decoder solo (GPT) e encoder-decoder (T5).
- Spiegare il processo di addestramento in tre fasi: pre-addestramento (modello base), tuning con istruzioni (SFT) e allineamento (RLHF/PPO).
- Confrontare le prestazioni, le leggi di scalabilità e le innovazioni architetturali dei principali modelli linguistici di grandi dimensioni, tra cui GPT, Llama, Qwen e DeepSeek.